Geoffrey Hinton il padre dell’IA: “Dovremmo preoccuparci dell’intelligenza artificiale”

“L’intelligenza artificiale è come una tigre. Da cucciola sembra innocua, addirittura affascinante. Ma crescerà. E a meno che non siate certi che non vorrà uccidervi, dovreste preoccuparvi.” Geoffrey Hinton, Premio Nobel per la Fisica nel 2024, con John Hopfield, per i suoi pionieristici studi nel campo del machine learning, continua a lanciare segnali d’allarme sul futuro dell’IA. Lo ha fatto anche a Berlino, sul palco del Gitex Europe, dove è stato ospite d’onore nella giornata inaugurale. La fiera tech, nata a Dubai, per la prima volta è sbarcata nel Vecchio Continente, portando con sé centinaia di startup europee. Seguiranno nuovi appuntamenti in Kenya e Kazhakistan.
Hinton, considerato uno dei padri fondatori dell’intelligenza artificiale moderna, ha lasciato Google proprio per le crescenti divergenze sull’evoluzione e il controllo dell’IA. “Le grandi aziende perseguono il profitto, non l’etica”, ha dichiarato sul Global Stage del Gitex, confermando la sua preoccupazione per lo sviluppo incontrollato dei modelli generativi.
La saluteEppure non mancano gli aspetti positivi. “L’IA sarà straordinaria nel settore sanitario”, ha detto. “Oggi ci sono 250 applicazioni approvate dalla FDA americana per l'utilizzo dell'IA nell'interpretazione delle scansioni mediche. In America è utilizzata nelle principali cliniche oncologiche, ma la professione del medico è piuttosto conservatrice, eppure tra pochi anni, forse meno di 5, sarà in grado di ottenere più informazioni dalle scansioni mediche” e lo scienziato ipotizza progressi importanti nella diagnosi di malattie feroci come il cancro.“Nell’interpretazione del fundus della retina, l’IA può vedere ogni sorta di cose che nessun oftalmologo ha mai pensato di poter vedere. Se riusciamo a rendere i medici più efficienti, tutti noi potremo avere molta più assistenza sanitaria. Quindi non ci sarà disoccupazione, ma solo molta più assistenza sanitaria, il che sarà fantastico” dice Hinton, convinto dell’impatto positivo in ambito clinico, anche nelle diagnosi. “L’intelligenza artificiale indovina circa il 50% delle diagnosi, mentre i medici il 40%. La combinazione di questi due fattori arriverà al 60% e salverà molte vite, visto che negli Usa circa 200.000 persone all'anno muoiono a causa di diagnosi sbagliate”. E naturalmente sarà anche più brava nel progettare farmaci.
La scuolaE che dire dell’istruzione? “Sarà molto più efficace nel dare lezioni. Già oggi sappiamo che se si prende un bambino e gli si affida un tutor personale, impara due volte più velocemente che in classe. E questo perché il tutor adatta le sue spiegazioni a quello che il bambino sta capendo. L’IA lo farà anche meglio perché avrà l'esperienza di milioni di bambini su cui allenarsi. E questo avverrà nei prossimi 10 anni”, spiega Hinton, ad una platea che lo ascolta con estrema attenzione. Ok, ma se allora saremo curati meglio, istruiti meglio, più produttivi ed efficienti, con meno possibilità di commettere errori e potremo contare sull’IA in tante altre occasioni, perché tutto questo timore?
Anzitutto perché il futuro è ignoto per definizione. Ma con l’IA in gioco diventa ancora più imprevedibile. “Se guardiamo a cinque anni fa, stavamo appena iniziando a vedere cose come il GPT-2, che all'epoca sembrava incredibile, perché era in grado di generare un testo, che era pieno di sciocchezze, ma era coerente. Se lo guardiamo ora, sembra primitivo. Quindi le cose che abbiamo ora sembreranno incredibilmente primitive tra cinque anni. E saremo sorpresi”. Da cosa?
“I chatbot AI saranno in grado di ragionare su ciò che hanno appena detto e di rendersi conto che non ha senso, saranno molto più simili alle persone” sottolinea lo scienziato britannico, convinto che i modelli linguistici, gli LLM, siano vicini ad un momento critico. “La maggior parte dei dati al mondo è isolata nelle aziende. I dati liberamente disponibili sono stati in gran parte esauriti e quindi stanno iniziando a incontrare un limite. Per ottenere un piccolo incremento di prestazioni, è necessario raddoppiare la quantità di dati e la quantità di calcolo. Il bit successivo raddoppia ancora. Quindi si arriva a un limite. E ora sta raggiungendo un limite energetico”.
L’energiaEd eccoci alla questione del momento: il consumo energetico. “Il cervello è analogico, mentre questi sistemi di intelligenza artificiale sono digitali. Uno dei motivi per cui ho lasciato Google è che stavo lavorando su come poter creare modelli linguistici di grandi dimensioni con hardware analogico”. Dunque tra le divergenze che hanno spinto il grande scienziato a lasciare la Big del Tech è stato il consumo energetico? Un problema legato all’impatto ambientale, alle emissioni?“È un'operazione costosa in termini di energia. C'è un modo diverso di farlo, che consiste nel fare in modo che l'attività neurale sia solo un voltaggio e che la forza di connessione sia solo una conduttanza, e che per unità di tempo il voltaggio moltiplicato per la conduttanza sia la carica, e che il neurone che raccoglie tutte queste cose possa semplicemente sommare la carica…possiamo fare questi calcoli con molta meno energia, ed è proprio questo che fa il cervello”.
Tradotto, cosa intende dire Hinton? Secondo il premio Nobel Hinton, il cervello funziona in modalità analogica, non digitale. Questo significa che le informazioni non sono rappresentate da valori discreti (0 o 1), ma da un continuum di valori. Per esempio, l'attività neuronale è un voltaggio che varia gradualmente, e la forza delle connessioni sinaptiche è una conduttanza continua. Moltiplicando voltaggio e conduttanza si ottiene una carica, che i neuroni potrebbero semplicemente sommare. Questo approccio è energeticamente più efficiente per certe operazioni, eliminando la necessità di conversioni tra segnali analogici e digitali.
Non solo bitPer contro i modelli linguistici sono digitali, ma funzionano su hardware che rappresentano le informazioni come bit; un approccio energeticamente costoso, specialmente per operazioni su vasta scala come quelle richieste dagli LLM. Richiede molta energia per spostare i dati, eseguire calcoli e memorizzare informazioni in formato digitale. “Quindi è inutile che io prenda le mie forze di connessione, che sono state progettate per il mio hardware, e le dia a voi per usarle nel vostro hardware. Non funziona. Il nostro cervello è cablato in modo diverso. Abbiamo sistemi che apprendono in hardware analogico” spiega ancora Geoffrey Hinton.
Qual è la soluzione davanti a un futuro fosco, in cui le macchine saranno probabilmente più intelligenti e più veloci di noi, ma consumeranno sempre più energia, rendendo più difficile diminuire le emissioni inquinanti, quindi la gestione del cambiamento climatico? “Non sappiamo come creare cose più intelligenti di noi che siano benevole. Non sappiamo come farlo e dovremmo impegnarci molto in questo senso. Le grandi aziende non lo faranno perché vogliono ottenere profitti a breve termine. Non c'è una buona soluzione a questo problema. Il massimo che posso suggerire è che la gente faccia pressione sui governi affinché facciano pressione sulle grandi compagnie tech”.
La Repubblica